$694
Trên thế giới, xét dưới góc độ kinh tế - xã hội, ngoài việc giải trí, công nghệ Deepfake còn được d
Trên thế giới, xét dưới góc độ kinh tế - xã hội, ngoài việc giải trí, công nghệ Deepfake còn được dùng với thủ đoạn xấu nhằm lừa đảo tài chính, bôi xấu, khủng bố, đe dọa…
Còn xét riêng về mặt an ninh, tình báo, Deepfake thậm chí có thể trở thành công cụ nhằm tung hỏa mù, thậm chí có thể gây ra hiểm họa của an ninh toàn cầu.Tấn công tài chính
Tháng 3-2019, giám đốc điều hành một công ty năng lượng ở Anh nhận được cuộc gọi từ sếp của mình. Vị giám đốc điều hành ở công ty mẹ đặt tại Đức yêu cầu ông chuyển tiền gấp cho một nhà cung cấp ở Hungary trong vòng một giờ. Không chút nghi ngờ, vị CEO chuyển khoản và mất 243.000 USD. Số tiền nhanh chóng được chuyển từ tài khoản ngân hàng Hungary sang một tài khoản ở Mexico, sau đó được chuyển tiếp đến các nơi khác.
Theo , đây là trường hợp lừa đảo đầu tiên được ghi nhận liên quan đến việc giả giọng nói bằng công nghệ Deepfake. Nạn nhân cho biết đã nghe âm thanh giống với tiếng của sếp mình bởi âm sắc đặc trưng của người Đức. Kẻ lừa đảo còn gọi để đòi một khoản thanh toán thứ hai nhưng lúc này nạn nhân sinh nghi và không chuyển khoản.
Trường hợp lừa đảo do Deepfake thứ hai được xác định ở Hong Kong. Tháng 1-2020, giám đốc một ngân hàng nhận được cuộc gọi từ một người có giọng nói giống giọng và hình ảnh của giám đốc một công ty ông từng nói chuyện.
Vị giám đốc thông báo tin mừng: Công ty của ông sắp thực hiện một thương vụ mua lại. Ông cần ngân hàng cho phép một số giao dịch chuyển khoản trị giá 35 triệu USD. Ngoài cuộc gọi, giám đốc ngân hàng còn nhận được các email mà ông tin là từ vị giám đốc. Nội dung điện thoại và email đều liên quan đến việc mua lại một công ty. Tin rằng mọi thứ đều hợp pháp, giao dịch chuyển tiền được thực hiện và ngân hàng bị thiệt hại 35 triệu USD.
Một nghiên cứu gần đây cho thấy chỉ trong năm 2020, gian lận danh tính do Deepfake tạo ra đã gây thiệt hại cho các tổ chức tài chính khoảng 20 tỉ USD. Trung bình một kẻ lừa đảo thông qua Deepfake để đánh cắp từ 81.000 đến 97.000 USD trước khi vụ lừa đảo bị phanh phui. Một báo cáo khác cho thấy "những trực tuyến cũng mất 6 tỉ USD mỗi năm do gian lận danh tính và đây là tội phạm tài chính phát triển nhanh nhất thế giới", theo pymnts.com.Gây khủng hoảng an ninh toàn cầu
Một báo cáo mới của các chuyên gia AI cũng đưa ra dự đoán rằng công nghệ Deepfake đang trên đà được sử dụng rộng rãi hơn trong các hoạt động tình báo và quân sự có mục tiêu. Chủ nhiệm Phòng thí nghiệm AI và an ninh Northwestern, ông Subrahmanian, và nhóm sinh viên của mình đã phát triển một thuật toán tạo ra các video Deepfake nhằm cảnh báo về rủi ro xung đột toàn cầu từ Deepfake.
Họ đã tạo ra video giả về trùm khủng bố Nhà nước Hồi giáo đã chết là Abu Mohammed al-Adnani.
Trong video, nét mặt và âm thanh của Abu Mohammed al-Adnani hiện ra chân thực, còn những gì người này nói là phát ngôn của Tổng thống Syria Bashar al-Assad. Video Deepfake sống động này được tạo ra chỉ trong vài giờ. Quá trình đơn giản đến mức Subrahmanian cảnh báo các cơ quan an ninh nên sẵn sàng cho việc kẻ xấu có khả năng tạo ra video Deepfake về bất kỳ quan chức hoặc lãnh đạo nào trong tương lai.
Tác giả đề nghị chính phủ các nước nên có chính sách giám sát và quản lý việc tạo và phát tán các nội dung Deepfake. Chẳng hạn cần có "quy trình Deepfake" trước khi muốn sử dụng công nghệ này.
"Quyết định tạo ra và sử dụng Deepfake không nên được xem nhẹ mà cần được xem xét cẩn thận về mọi mặt của rủi ro. Việc sử dụng Deepfake được thiết kế đặc biệt để tấn công các mục tiêu có giá trị cao trong bối cảnh xung đột sẽ ảnh hưởng đến nhiều cơ quan và văn phòng chính phủ", nhóm tác giả trên đưa ra cảnh báo.
HỒNG VÂN